Дали изкуственият интелект е решението за заплахите за киберсигурността?
Технологията за изкуствен интелект е фешън дума в киберсигурността от десетилетие насам — представена като метод за маркиране на уязвимости и различаване на закани посредством осъществяване на различаване на модели върху огромни количества данни. Антивирусните артикули, да вземем за пример, от дълго време употребяват AI за сканиране за злоумишлен код или злоумишлен програмен продукт и изпращане на предизвестия в действително време.
Но появяването на генериращия AI, който разрешава на компютрите да генерират комплицирано наличие — като текст, аудио и видео - от елементарен човешки вход, предлага спомагателни благоприятни условия на киберзащитниците. Неговите бранители дават обещание, че ще увеличи успеваемостта на киберсигурността, ще помогне на бранителите да стартират да реагират в действително време на закани и даже ще им помогне да изпреварят изцяло съперниците си.
„ Екипите по сигурността употребяват AI за разкриване на уязвимости и генериране сигнали за закани в продължение на години, само че генеративният AI извежда това на друго равнище, ” споделя Сам Кинг, основен изпълнителен шеф на групата за сигурност Veracode.
„ Сега можем да използваме технологията освен за разкриване на проблеми, само че и за разрешите и в последна сметка ги предотвратете преди всичко. “
Голямото четенеНарастващата опасност за демокрацията от дезинформация, задвижвана от AI
Генеративната AI технология за първи път беше ориентирана в светлината на прожекторите от стартирането на OpenAI's ChatGPT, консуматор chatbot, който дава отговор на въпроси и подкани на потребителите. За разлика от технологията, която пристигна преди него, генеративният AI „ има адаптивна скорост на учене, схващане на подтекста и мултимодална обработка на данни и отстранява по-твърдото, основано на правила покритие на обичайния AI, увеличавайки своите благоприятни условия за сигурност “, изяснява Анди Томпсън, евангелист на офанзивните проучвания в CyberArk Labs.
И по този начин, след една година звук към генеративния AI, изпълнени ли са тези обещания?
Вече генеративният AI се употребява за основаване на съответни модели, чатботове, или AI помощници, които могат да оказват помощ на човешките анализатори да открият и реагират на хакове - сходно на ChatGPT, само че за киберсигурност. Microsoft започва едно такова изпитание, което назовава Security Copilot, до момента в който Гугъл има модел, наименуван SEC Pub.
„ Като образоваме модела на всички наши данни за закани, всички наши най-хубави практики за сигурност, всички наши познания за това по какъв начин да сътворяваме сигурен програмен продукт и сигурни конфигурации, към този момент имаме клиенти, които го употребяват, с цел да усилят способността си да проучват офанзиви и злоумишлен програмен продукт за основаване на автоматизирани отбрани “, споделя Фил Венейбълс, основен шеф по осведомителна сигурност на Гугъл Cloud.
Има доста по-специфични случаи на приложимост, споделят специалисти. Например, технологията може да се употребява за симулация на офанзиви или с цел да се подсигурява, че кодът на компанията е предпазен. King на Veracode споделя: „ Сега можете да вземете модел на GenAI и да го обучите да предлага автоматизирано корекции за нерешителен код, да генерира обучителни материали за вашите екипи по сигурността и да разпознава ограничения за намаляване при положение на разпозната опасност, преминавайки оттатък елементарното намиране на уязвимости. “
Generative AI може също да се употребява за „ генериране [и] синтезиране на данни “, с които да се образоват модели за машинно образование, споделя Ганг Уанг, доцент по компютърни науки в Grainger College of Engineering на Университета на Илинойс. „ Това е изключително потребно за задания по сигурността, при които данните са нищожни или им липсва многообразие “, отбелязва той.
Потенциалът за създаване на AI системи за киберсигурност в този момент подтиква сключването на покупко-продажби в кибернетичния бранш – като придобиването за 28 милиарда $ на американския производител на програмен продукт за сигурност Splunk от Cisco през септември. „ Това придобиване отразява по-широка наклонност и илюстрира възходящото приемане на AI от промишлеността за усъвършенствана киберзащита “, споделя Кинг.
Той показва, че тези обвързвания разрешават на придобиващия бързо да разшири своите благоприятни условия за AI, като в същото време давайки им достъп до повече данни, с цел да образоват дейно своите AI модели.
Въпреки това Уанг предизвестява, че ръководената от AI киберсигурност не може „ изцяло да размени съществуващите обичайни способи “. За да бъдат сполучливи, „ другите подходи се допълват, с цел да обезпечат по-пълна визия за киберзаплахите и да предложат отбрана от разнообразни гледни точки “, споделя той.
В последна сметка бранителите са тези, които имат превъзходство, като се има поради, че ние притежаваме технологията и по този метод можем да насочваме нейното развиване
Фил Венабълс, Гугъл Cloud < /blockquote> Например, AI инструментите може да имат високи подправени позитивни равнища — което значи, че не са задоволително точни, с цел да се разчита единствено на тях. Въпреки че може да са в положение да разпознават и спрат известни офанзиви бързо, те могат да се борят с нови закани, като да вземем за пример по този начин наречените офанзиви от „ нулев ден “, които са разнообразни от стартираните в предишното.
Като реклама на AI продължава да превзема софтуерния бранш, киберпрофесионалистите би трябвало да го внедряват деликатно, предизвестяват специалистите, като поддържат стандарти за дискретност и отбрана на данните, да вземем за пример. Според данните на Netskope Threat Labs сензитивните данни се споделят в генерираща AI поръчка всеки час от работния ден в огромни организации, което може да даде на хакерите храна за ориентиране на офанзиви.
Стив Стоун, началник на Rubrik Zero Лабораториите на групата за сигурност на данните Rubrik също означават появяването на комфортни за хакери генеративни AI чатботове като „ FraudGPT “ и „ WormGPT “, които са предопределени да разрешат на „ даже тези с минимални механически “ умения да започват комплицирани хакерски атаки.
Някои хакери употребяват принадлежности за изкуствен интелект, с цел да пишат и разпростират измами за обществено инженерство в мащаб и по по-целенасочен метод — да вземем за пример посредством възпроизвеждане на стила на писане на човек. Според Макс Хайнемейер, основен продуктов шеф в Darktrace, компания за AI за киберсигурност, е имало 135 % нарастване на „ нови офанзиви за обществено инженерство “ от януари до февруари 2023 година, след въвеждането на ChatGPT.
„ 2024 година ще покаже по какъв начин по-напреднали участници като APT [усъвършенствани непрекъснати заплахи], нападатели на национални страни и напреднали банди за рансъмуер са почнали да възприемат ИИ “, споделя той. „ Ефектът ще бъде още по-бързи, по-мащабируеми, по-персонализирани и контекстуализирани офанзиви, с понижено време на престой. “
Въпреки това, доста киберексперти остават оптимисти, че технологията ще бъде берекет за киберпрофесионалистите като цяло. „ В последна сметка бранителите са тези, които имат превъзходство, като се има поради, че ние притежаваме технологията и по този метод можем да насочваме нейното развиване предвид на съответни случаи на приложимост “, споделя Венейбълс. „ По създание имаме преимуществото на домашния терен и имаме намерение да го използваме изцяло. “